유명 배우와 SNS로 얘기했다며 블로그에 올라온 글입니다. <br /> <br />이 내용은 얼마 안 가 삭제됐지만, 캡처 화면이 순식간에 퍼졌습니다. <br /> <br />작성자는 장난으로 대화를 꾸며낸 거라고 해명했지만, <br /> <br />해당 배우가 입은 이미지 타격은 돌이킬 수 없었습니다. <br /> <br />온라인 연애 사기 일당이 유명 배우의 가짜 신분증을 만들어 50대 여성을 속이고 5억 원을 빼낸 사례도 있었습니다. <br /> <br />이처럼 인지도가 높은 연예인들이 주로 AI 범죄 수단으로 악용되고 있지만, 그 대상은 누구나 될 수 있습니다. <br /> <br />[김정묵 / 변호사 : AI를 이용하여 허위 사실을 유포하는 경우 형법 상 허위사실 적시 명예훼손죄가 성립한다고 할 것인데, 최근 범죄의 심각성이 높아짐에 따라 벌금형이 아닌 실형이 선고되는 추세에 있습니다.] <br /> <br />뭐가 진짜고 가짜인지 모를 정도로 AI 이미지의 정교함은 나날이 높아지고 있습니다. <br /> <br />영상 속에서 AI를 이용한 합성 기술을 경고하는 영국 경찰. <br /> <br />이 남자는 이른바 '딥 페이크' 위험성을 경고하면서 마지막에 이렇게 말합니다. <br /> <br />['영국경찰청장협의회(NPCC)' 유튜브 영상 : 끝으로 한 가지 기억해주세요. 여러분이 보고 들은 모든 것, 제 목소리와 모습 모두 '딥페이크'입니다. 그 어떤 것도 진짜가 아닙니다.] <br /> <br />구글 같은 주요 기업들은 AI로 만든 영상에 '워터마크'를 넣는 제도를 도입했지만, 아직 충분치 않습니다. <br /> <br />국내에서도 내년 1월 시행되는 'AI기본법'에 AI 생성물 표시 의무가 포함돼 있지만, 악용을 막기엔 여전히 걸음마 단계입니다. <br /> <br />AI 기술 혁신의 속도가 빠를수록, 제도적 안전장치가 뒷받침돼야 하는 것은 물론 이용자 인식 개선도 함께 이뤄져야 한다는 지적입니다. <br /> <br />YTN 김승환입니다. <br /> <br /> <br />영상편집 | 김지연 <br />디자인 | 정민정 <br />자막뉴스 | 송은혜 <br /> <br />#YTN자막뉴스 <br /> <br /> <br /><br /><br />※ '당신의 제보가 뉴스가 됩니다' <br />[카카오톡] YTN 검색해 채널 추가 <br />[전화] 02-398-8585 <br />[메일] social@ytn.co.kr<br /><br />▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202510290910369858<br />▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424<br /><br />▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs<br /><br />[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]
